通过一系列联邦举措和命令,美国政府一直在努力确保美国在AI中的领导。这些广泛的战略文件影响了美国空军美国部(DAF)等组织。DAF-MIT AI加速器是DAF和MIT之间的一项计划,以弥合AI研究人员与DAF任务要求之间的差距。DAF-MIT AI加速器支持的几个项目正在开发公共挑战问题,这些问题解决了许多联邦AI研究的重点。这些挑战是通过公开可用的大型AI-Ready数据集,激励开源解决方案,并为可以激发进一步研究的双重使用技术创建需求信号,来针对优先事项。在本文中,我们描述了正在开发的这些公共挑战以及它们的应用如何促进科学进步。
translated by 谷歌翻译
数据库中的部署机学习(ML)算法是由于现代ML算法的不同计算脚印和多数数据库技术的挑战,每个数据库技术都具有自己的限制性语法。我们介绍了一个基于Apache Spark的微服务编排框架,其扩展了数据库操作以包含Web服务基元。我们的系统可以协调数百台机器的Web服务,并充分利用群集,线程和异步并行性。使用此框架,我们为智能服务提供大规模客户端,如语音,视觉,搜索,异常检测和文本分析。这允许用户将随意使用的智能集成到具有Apache Spark连接器的任何数据存储器中。为了消除网络通信的大多数开销,我们还引入了我们架构的低延迟集装箱版本。最后,我们证明我们调查的服务在各种基准上具有竞争力,并在此框架中展示了两个应用程序来创建智能搜索引擎和实时自动竞赛分析系统。
translated by 谷歌翻译
Using 3D CNNs on high resolution medical volumes is very computationally demanding, especially for large datasets like the UK Biobank which aims to scan 100,000 subjects. Here we demonstrate that using 2D CNNs on a few 2D projections (representing mean and standard deviation across axial, sagittal and coronal slices) of the 3D volumes leads to reasonable test accuracy when predicting the age from brain volumes. Using our approach, one training epoch with 20,324 subjects takes 40 - 70 seconds using a single GPU, which is almost 100 times faster compared to a small 3D CNN. These results are important for researchers who do not have access to expensive GPU hardware for 3D CNNs.
translated by 谷歌翻译
该“研究预览”论文介绍了在辅助护理应用程序中为机器人任务执行的自适应路径规划框架。该框架提供了一种基于图的环境建模方法,使用Dijkstra的算法进行动态路径查找。应用了使用概率模型检查的预测模块来估计人类在环境中的运动,从而可以重新分配机器人路径的运行时间。我们说明了该框架用于模拟辅助护理案例研究,其中移动机器人在环境中导航,并监视最终用户,具有轻度的身体或认知障碍。
translated by 谷歌翻译
人类从不同地点和时间的事件的发生中学习,以预测类似的事件轨迹。我们将松散的分离时间(LDT)现象定义为两个或多个事件,这些事件可能在不同的地方和不同的时间表中发生,但在事件的性质和位置的属性上共享相似之处。在这项工作中,我们改善了重复的神经网络(RNN)的使用,特别是短期内存(LSTM)网络,以启用为LDT生成更好的时间表预测的AI解决方案。我们根据趋势使用时间表之间的相似性度量,并引入代表这些趋势的嵌入。嵌入代表事件的属性,该属性与LSTM结构相结合,可以聚集以识别类似的时间不对然后的事件。在本文中,我们探讨了从与LSTM建模的地球物理和人口统计学现象有关的时间不变数据中播种多元LSTM的方法。我们将这些方法应用于从COVID-19检测到的感染和死亡病例中得出的时间表数据。我们使用公开可用的社会经济数据来播种LSTM模型,创建嵌入,以确定这种播种是否改善了病例预测。这些LSTM产生的嵌入量被聚集,以识别预测不断发展的时间表的最佳匹配候选者。采用这种方法,我们显示了美国县一级疾病传播的10天移动平均预测的改善。
translated by 谷歌翻译
过去十年来,人们对人工智能(AI)的兴趣激增几乎完全由人工神经网络(ANN)的进步驱动。尽管ANN为许多以前棘手的问题设定了最先进的绩效,但它们需要大量的数据和计算资源进行培训,并且由于他们采用了监督的学习,他们通常需要知道每个培训示例的正确标记的响应,并限制它们对现实世界域的可扩展性。尖峰神经网络(SNN)是使用更多类似脑部神经元的ANN的替代方法,可以使用无监督的学习来发现输入数据中的可识别功能,而又不知道正确的响应。但是,SNN在动态稳定性方面挣扎,无法匹配ANN的准确性。在这里,我们展示了SNN如何克服文献中发现的许多缺点,包括为消失的尖峰问题提供原则性解决方案,以优于所有现有的浅SNN,并等于ANN的性能。它在使用无标记的数据和仅1/50的训练时期使用无监督的学习时完成了这一点(标记数据仅用于最终的简单线性读数层)。该结果使SNN成为可行的新方法,用于使用未标记的数据集快速,准确,有效,可解释的机器学习。
translated by 谷歌翻译
在过去的几年中,连续的深度学习模型(称为神经普通微分方程(神经odes))受到了广泛关注。尽管它们迅速产生影响,但对于这些系统缺乏正式的分析技术。在本文中,我们考虑了具有不同架构和层次的一般神经odes类,并引入了一种新颖的可及性框架,可以对其行为进行正式分析。为神经ODE的可及性分析而开发的方法是在称为NNVODE的新工具中实现的。具体而言,我们的工作扩展了现有的神经网络验证工具以支持神经ODE。我们通过分析包括用于分类的神经ODE的一组基准以及控制和动态系统的一组基准来证明我们方法的功能和功效,包括评估我们方法对我们方法在现有软件工具中的功效和能力的评估。如果可以这样做,则连续的时间系统可达性文献。
translated by 谷歌翻译
病理学家拥有丰富的词汇,他们可以描述细胞形态的所有细微差别。在他们的世界中,图像和单词都有自然的配对。最近的进步表明,现在可以对机器学习模型进行培训,以学习高质量的图像功能并将其表示为离散信息。这使得自然语言(也是离散的语言)可以与成像旁边共同建模,从而描述了成像内容。在这里,我们介绍了将离散建模技术应用于非黑色素瘤皮肤癌的问题结构域,特别是eme骨内癌(IEC)的组织学图像。通过实施IEC图像的高分辨率(256x256)图像的VQ-GAN模型,我们训练了序列到序列变压器,以使用病理学家术语来生成自然语言描述。结合使用连续生成方法获得的交互式概念矢量的概念,我们展示了一个额外的解释性角度。结果是为高度表达的机器学习系统而努力的一种有希望的方法,不仅可以用作预测/分类工具,而且还意味着要进一步了解我们对疾病的科学理解。
translated by 谷歌翻译
随着机器学习算法和方法的成功,增强学习(RL)已成为越来越重要的研究领域。为了应对围绕RL训练时赋予RL代理的自由的安全问题,有关安全加固学习(SRL)的工作有所增加。但是,这些新的安全方法的审查少于其不安全的对应物。例如,安全方法之间的比较通常缺乏在相似的初始条件边界和超参数设置,使用较差的评估指标以及樱桃挑选最佳训练运行的情况下进行的公平评估,而不是在多个随机种子上平均。在这项工作中,我们使用评估最佳实践进行消融研究,以调查运行时间保证(RTA)的影响,该研究可以监视系统状态并干预以确保安全性,以确保安全性。通过研究在政策和非政策RL算法中的多种RTA方法,我们试图了解哪种RTA方法最有效,无论代理是否依赖RTA,以及奖励成型的重要性与RL代理培训中安全探索的重要性。我们的结论阐明了SRL的最有希望的方向,我们的评估方法为在未来的SRL工作中进行更好的比较奠定了基础。
translated by 谷歌翻译
主张神经符号人工智能(NESY)断言,将深度学习与象征性推理相结合将导致AI更强大,而不是本身。像深度学习一样成功,人们普遍认为,即使我们最好的深度学习系统也不是很擅长抽象推理。而且,由于推理与语言密不可分,因此具有直觉的意义,即自然语言处理(NLP)将成为NESY特别适合的候选人。我们对实施NLP实施NESY的研究进行了结构化审查,目的是回答Nesy是否确实符合其承诺的问题:推理,分布概括,解释性,学习和从小数据的可转让性以及新的推理到新的域。我们研究了知识表示的影响,例如规则和语义网络,语言结构和关系结构,以及隐式或明确的推理是否有助于更高的承诺分数。我们发现,将逻辑编译到神经网络中的系统会导致满足最NESY的目标,而其他因素(例如知识表示或神经体系结构的类型)与实现目标没有明显的相关性。我们发现在推理的定义方式上,特别是与人类级别的推理有关的许多差异,这会影响有关模型架构的决策并推动结论,这些结论在整个研究中并不总是一致的。因此,我们倡导采取更加有条不紊的方法来应用人类推理的理论以及适当的基准的发展,我们希望这可以更好地理解该领域的进步。我们在GitHub上提供数据和代码以进行进一步分析。
translated by 谷歌翻译